由于缺乏明显的特征,严重的阶级失衡以及大小本身,找到小病变非常具有挑战性。改善小病变细分的一种方法是减少感兴趣的区域,并以更高的灵敏度进行检查,而不是为整个区域执行它。通常将其作为器官和病变的顺序或关节分割实现,这需要对器官分割进行额外的监督。取而代之的是,我们建议以无其他标记成本的强度分布来有效地分开病变位于背景的区域。它被整合到网络培训中,作为一项辅助任务。我们将提出的方法应用于CT扫描中小肠癌小肿瘤的分割。我们观察到所有指标的改进(33.5%$ \ rightarrow $ 38.2%,41.3%$ \ rightarrow $ 47.8%,30.0%$ \ rightarrow $ \ rightarrow $ 35.9%的全球,每个案例和每个肿瘤骰子得分相比)。对于基线方法,这证明了我们想法的有效性。我们的方法可以是将目标的强度分布信息显式合并到网络培训中的一种选择。
translated by 谷歌翻译
我们提出了一种基于圆柱约束的小肠路径跟踪的新的基于图的方法。与其他器官相比,小肠的独特特征是自身沿其路线之间的接触,这使得路径跟踪与墙壁的模糊外观一起困难。它会导致轨道路径在依靠墙壁检测(例如墙壁检测)之类的低级特征时轻松越过墙壁。为了解决这个问题,使用小肠过程中安装的一系列气缸用于指导跟踪到更可靠的方向。它使用新的成本函数作为软约束实现。对所提出的方法进行了针对小肠从小到末端进行10次腹部CT扫描的基础真相路径的评估。与基线方法相比,所提出的方法在跟踪路径而没有犯错的情况下显示出明显的改进。对于与小肠分割有关的两种不同的设置,观察到了6.6%和17.0%的改善。
translated by 谷歌翻译
我们提出了一种从荧光X射线序列中提取冠状动脉血管的方法。给定源框架的血管结构,随后框架中的血管对应候选者是由新型的分层搜索方案生成的,以克服孔径问题。最佳对应关系是在马尔可夫随机字段优化框架内确定的。由于对比剂的流入,进行后处理以提取新近可见的血管分支。在18个序列的数据集上进行的定量和定性评估证明了该方法的有效性。
translated by 谷歌翻译
考虑到它的许多折叠并沿线接触,小肠路径跟踪是一个具有挑战性的问题。出于同样的原因,要在3D中实现小肠的地面(GT)路径非常昂贵。在这项工作中,我们建议使用具有不同类型注释的数据集训练深入的增强学习跟踪器。具体而言,我们利用只有GT小肠分割的CT扫描以及具有GT路径的CT扫描。它可以通过设计兼容两者兼容的独特环境来启用,即使没有GT路径,也可以定义奖励。进行的实验证明了该方法的有效性。所提出的方法通过能够使用弱注释来利用扫描,从而可以通过降低所需的注释成本,从而在此问题中具有高度的可用性。
translated by 谷歌翻译
The cone-beam computed tomography (CBCT) provides 3D volumetric imaging of a target with low radiation dose and cost compared with conventional computed tomography, and it is widely used in the detection of paranasal sinus disease. However, it lacks the sensitivity to detect soft tissue lesions owing to reconstruction constraints. Consequently, only physicians with expertise in CBCT reading can distinguish between inherent artifacts or noise and diseases, restricting the use of this imaging modality. The development of artificial intelligence (AI)-based computer-aided diagnosis methods for CBCT to overcome the shortage of experienced physicians has attracted substantial attention. However, advanced AI-based diagnosis addressing intrinsic noise in CBCT has not been devised, discouraging the practical use of AI solutions for CBCT. To address this issue, we propose an AI-based computer-aided diagnosis method using CBCT with a denoising module. This module is implemented before diagnosis to reconstruct the internal ground-truth full-dose scan corresponding to an input CBCT image and thereby improve the diagnostic performance. The external validation results for the unified diagnosis of sinus fungal ball, chronic rhinosinusitis, and normal cases show that the proposed method improves the micro-, macro-average AUC, and accuracy by 7.4, 5.6, and 9.6% (from 86.2, 87.0, and 73.4 to 93.6, 92.6, and 83.0%), respectively, compared with a baseline while improving human diagnosis accuracy by 11% (from 71.7 to 83.0%), demonstrating technical differentiation and clinical effectiveness. This pioneering study on AI-based diagnosis using CBCT indicates denoising can improve diagnostic performance and reader interpretability in images from the sinonasal area, thereby providing a new approach and direction to radiographic image reconstruction regarding the development of AI-based diagnostic solutions.
translated by 谷歌翻译
生成的对抗网络(GaN)中的发电机以粗到精细的方式学习图像生成,其中早期层学习图像的整体结构和后者细化细节。要播放粗略信息,最近的作品通常通过堆叠多个残差块来构建其发电机。虽然残余块可以产生高质量的图像以及稳定地训练,但它经常阻碍网络中的信息流。为了减轻这个问题,本简要介绍了一种新的发电机架构,通过组合通过两个不同的分支获得的特征来产生图像:主和辅助分支。主分支的目标是通过通过多个剩余块来产生图像,而辅助分支是将早期层中的粗略信息传送到稍后的块。要成功结合主和辅助分支机构中的功能,我们还提出了一个门控功能融合模块,用于控制这些分支机构中的信息流。为了证明所提出的方法的优越性,本简要提供了使用Cifar-10,CiFar-100,Lsun,Celeba-HQ,AFHQ和Tiny-ImageNet的各种标准数据集提供了广泛的实验。此外,我们进行了各种消融研究,以证明所提出的方法的泛化能力。定量评估证明,该方法在成立得分(IS)和FRECHET成立距离(FID)方面表现出令人印象深刻的GAN性能。例如,该方法可以分别提高FID,并分别在35.13至25.00和20.23至25.57之间的微小图像数据集上的分数。
translated by 谷歌翻译
本文介绍了一种新颖的卷积方法,称为生成卷积(GCONV),这对于改善生成的对抗网络(GaN)性能来说是简单而有效的。与标准卷积不同,GCONV首先选择与给定的潜像兼容的有用内核,然后线性地将所选内核结合起来制作潜在特定的内核。使用潜在特定的内核,所提出的方法产生潜在特定的特征,鼓励发电机产生高质量的图像。这种方法很简单,但令人惊讶地有效。首先,GaN性能随着额外的硬件成本而显着提高。其次,GCONV可以用于现有的最先进的发电机而不修改网络架构。为了揭示GCONV的优越性,本文使用各种标准数据集提供了广泛的实验,包括CiFar-10,CiFar-100,Lsun-Church,Celeba和微小想象成。定量评估证明,GCONV在成立得分(IS)和FRECHET成立距离(FID)方面大大提高了无条件和条件GAN的性能。例如,所提出的方法改善了FID,分别从35.13到29.76和20.23到22.64的微小想象网数据集上的分数。
translated by 谷歌翻译
假新闻,虚假或误导性信息作为新闻,对社会的许多方面产生了重大影响,例如在政治或医疗域名。由于假新闻的欺骗性,仅将自然语言处理(NLP)技术应用于新闻内容不足。多级社会上下文信息(新闻出版商和社交媒体的参与者)和用户参与的时间信息是假新闻检测中的重要信息。然而,正确使用此信息,介绍了三个慢性困难:1)多级社会上下文信息很难在没有信息丢失的情况下使用,2)难以使用时间信息以及多级社会上下文信息,3 )具有多级社会背景和时间信息的新闻表示难以以端到端的方式学习。为了克服所有三个困难,我们提出了一种新颖的假新闻检测框架,杂扫描。我们使用元路径在不损失的情况下提取有意义的多级社会上下文信息。 COMA-PATO,建议连接两个节点类型的复合关系,以捕获异构图中的语义。然后,我们提出了元路径实例编码和聚合方法,以捕获用户参与的时间信息,并生成新闻代表端到端。根据我们的实验,杂扫不断的性能改善了最先进的假新闻检测方法。
translated by 谷歌翻译
本文提出了一种新颖的卷积层,称为扰动卷积(PCONV),该层侧重于同时实现两个目标:改善生成的对抗网络(GaN)性能并减轻判断者将所有图像从给定数据集记住的记忆问题,因为培训进步。在PCONV中,通过在执行卷积操作之前随机扰乱输入张量来产生扰动特征。这种方法很简单,但令人惊讶地有效。首先,为了产生类似的输出,即使使用扰动的张量,鉴别器中的每层也应该学习具有小本地嘴唇尖端值的鲁棒特征。其次,由于输入张量在培训过程中随机扰乱了神经网络中的辍学时,可以减轻记忆问题。为了展示所提出的方法的泛化能力,我们对各种丢失函数和数据集进行了广泛的实验,包括CIFAR-10,Celeba,Celeba-HQ,LSUN和微型想象成。定量评估表明,在FRECHET成立距离(FID)方面,PCONV有效地提高了GaN和条件GaN的性能。
translated by 谷歌翻译
Understanding the informative structures of scenes is essential for low-level vision tasks. Unfortunately, it is difficult to obtain a concrete visual definition of the informative structures because influences of visual features are task-specific. In this paper, we propose a single general neural network architecture for extracting task-specific structure guidance for scenes. To do this, we first analyze traditional spectral clustering methods, which computes a set of eigenvectors to model a segmented graph forming small compact structures on image domains. We then unfold the traditional graph-partitioning problem into a learnable network, named \textit{Scene Structure Guidance Network (SSGNet)}, to represent the task-specific informative structures. The SSGNet yields a set of coefficients of eigenvectors that produces explicit feature representations of image structures. In addition, our SSGNet is light-weight ($\sim$ 55K parameters), and can be used as a plug-and-play module for off-the-shelf architectures. We optimize the SSGNet without any supervision by proposing two novel training losses that enforce task-specific scene structure generation during training. Our main contribution is to show that such a simple network can achieve state-of-the-art results for several low-level vision applications including joint upsampling and image denoising. We also demonstrate that our SSGNet generalizes well on unseen datasets, compared to existing methods which use structural embedding frameworks. Our source codes are available at https://github.com/jsshin98/SSGNet.
translated by 谷歌翻译